Mest læste
[Filosofi, kultur og samfundsessay]

1 - Filosofi, kultur og samfundsessay
Digitale medier, kompetencer og dannelse
2 - Filosofi, kultur og samfundsessay
Jobs Bog
3 - Filosofi, kultur og samfundsessay
Hvorfor tager Roman Jakobson fejl?
4 - Filosofi, kultur og samfundsessay
Den naturgivne magt i menneskets hænder
5 - Filosofi, kultur og samfundsessay
Livskvalitet, kultur og identitet
6 - Filosofi, kultur og samfundsessay
Det idylliske Danmarks-billede er krakeleret
7 - Filosofi, kultur og samfundsessay
Nietzsches filosofi
8 - Filosofi, kultur og samfundsessay
Den danske hygge, krisen og demokratiet
9 - Filosofi, kultur og samfundsessay
Det var en heltedåd
10 - Filosofi, kultur og samfundsessay
Danmarks Radio på vrangen

Generativ kunstig intelligens er et offentligt anliggende

- Generativ kunstig intelligens er et offentligt anliggende

« Tilbage venstrestil icon lige marginer icon - icon + icon print icon

Hypen om generativ kunstig intelligens (GKI) har været massiv. GKI er blevet set som en verdensfrelser og som den nye store opfindelse, der vil revolutionere alt i det moderne samfund. GKI vil være værktøjet, der sikrer menneskeheden mod alskens sygdomme og bidrager til effektivt at bekæmpe klimakrisen. GKI vil også revolutionere uddannelsessystemet og gøre det meste af den overflødig. Det eneste man behøver at lære er prompt engineering (og at lave store sprogmodeller), så man kan få GKI til at løse alle de opgaver, man kan tænke sig.

Omvendt har der også været dem, der ser GKI som den store trussel mod menneskeheden. Når man først sætter teknologien fri, så vil den begynde at udvikle sig imod programmørernes og menneskehedens interesser. Generel kunstig intelligens vil udvikle sig bag ryggen på tech-industrien og måske på lidt længere sigt udslette menneskene, fordi de ikke længere vil være nødvendige - eller også vil generel kunstig intelligens betyde, at menneskene ikke længere behøver deres kroppe. I stedet vil mennesker blive til ren tænkning som i singulariteten, som Kurtzweil forsøger at få til at lyde som en utopi, men som jo tydeligvis er den værste dystopi, man kan tænke sig.

Uanset tekno-evangelisterne og teknofoberne så betyder udbredelsen af generativ kunstig intelligens, at det er noget, man som offentlighed bliver nødt til at tage stilling til. Hvor vil vi have det, og hvordan vil vi have, at det bliver brugt? Det er noget, som man må diskutere offentligt.

GKI er et offentligt anliggende, som lektor i kommunikation og journalistik Mike Ananny har skrevet: To Reckon with Generative AI, Make It a Public Problem: “To grapple with generative AI effectively, consumers and developers alike need to see it not only as biased datasets and machine learning run amok—we need to see it as a fast-emerging language that people are using to learn, make sense of their worlds, and communicate with others. In other words, it needs to be seen as a public problem."

Jeg er helt enig i pointen om, at vi har brug for mere offentlig diskussion af GKI - og jeg ønsker, at debatten kan fungere på baggrund af viden og nysgerrig åbenhed ift. de mange nuancer, der er i holdningerne til og vurderingerne af GKI.

En anden pointe fra Ananny, jeg vil tilslutte mig, er, at man ikke kan lade det være op til tech-industrien at sætte dagsordenen for, hvordan vi kan tale om GKI. Al teknologisk udvikling, der har indflydelse på, hvordan samfundet udvikler sig, hvordan vi arbejder og lever vores liv, må være et emne for en demokratisk offentlig debat. Det er en af kernerne i en moderne demokrati.

Ben Williamson, der er lektor på Edinburgh Universitet og forfatter til bogen Big Data in Education: The digital future of learning, policy, and practice, har taget Anannys opfordring til sig og skrevet AI i uddannelsesvæsenet er et offentligt anliggende, der indeholder “21 argumenter mod AI i uddannelser."

Det er rigtig fedt, at Williamsen lægger sine synspunkter ud som et indlæg i den offentlige debat. Jeg håber virkelig, at mange vil tage hans udsagn op til overvejelse og diskutere dem, så vi som samfund og ikke mindst som uddannelsesfolk kan prøve at blive skarpere på, hvordan vi skal forholde os til den “rystelse” af uddannelsessystemet, som den lette adgang til GKI har givet anledning til.

Jeg vil her give mit bud ved at forholde mig til de 21 argumenter.

Det første punkt, Williamson nævner, er: “Definitorisk uklarhed. Begrebet ‘kunstig intelligens’ savner klarhed; det mystificerer teknologiernes operationer, og det lover mange flere evner og mere ’magi’, end de fleste produkter kan stå inde for.” Og det er helt rigtigt, at der findes forskellige former for teknologier, hvori kunstig intelligens indgår. Og det er også rigtigt, at man af teknologierne er perverterede i deres måder at suge data til sig om elever og studerende. Men at teknologier ikke lader sig klart definere - eller afgrænse - er næppe et argument imod, at visse teknologier eller tjenester, hvori kunstig intelligens indgår, ikke kan eller bør anvendes i uddannelserne.

Faktisk er det sådan, at de fleste teknologier indgår i samspil med andre teknologier - og at man derfor må tage stilling til de enkelte sammensatte teknologier frem for at tage stilling til en kategori af teknologier. Jeg er meget enig med Williamson, at man skal kende teknologiernes historie, hvilket er et argument for historisk funderet teknologiforståelse som en integreret del af vores uddannelser.

Som det andet nævner Williamson “hype-fælden”, der går på, at teknologierne og især deres ‘ejere’ vildt overvurderer og oversælger deres produkter. De lover langt mere, end produkterne kan holde. Igen er jeg enig med Williamson i, at dette sker - og at uddannelserne ikke skal falde for tech-industriens salgstale i forhold til, hvad deres varer kan tilbyde uddannelserne. Alle de forestillinger, der cirkulerer om personaliseret læring og lettere planlægning af undervisning med GKI, skal imødegås af informeret og empiriske vurderinger af, hvordan teknologierne fungerer i virkeligheden. Men at sælgere taler deres produkter op, kan ikke være et argument imod at inddrage produkterne - det skal dog ske ud fra konkrete vurderinger.

Som en del af det andet argument imod GKI i uddannelserne nævner Williamson også etiske overvejelser, som industrien har en forholdsvis lemfældig omgang med. Her bør uddannelserne altid gå ind i disse overvejelser, som kan handle om, hvordan produkterne bliver til, og det må de gøre ud fra de samme principper, som man anvender i forhold til andre produkter, man anvender. Der følger et ansvar med, når man inddrager teknologier i uddannelserne. Og det ansvar er uddannelserne vant til at løfte.

I forlængelse af andet argument henviser Williamson også til, at der er mange “udokumenterede gevinster” ved inddragelse af GKI i omløb - igen ikke mindst fra tech-evangelisterne, der mener, at teknologier er om ikke Guds så det guddommelige fremskridts gave til menneskeheden. Her vil jeg dog igen pege på, at en generalisering af, at industrien overdriver positive sider af deres produkter ikke siger ret meget om det betimelige i at inddrage dem i uddannelserne, hvis det bygger på en ordentlig vurdering af, hvad man vil bruge produkterne til; hvorfor og hvordan.

“Manglende kontekst. AI applikationer til skoler markedsføres i reglen som om konteksten er uden betydning for deres implementering”, siger Williamson ganske rigtigt. Derfor må uddannelser og skoler vurdere produkterne ud fra deres konkrete kontekster.

Som det sjette punkt fremhæver han, at vi faktisk ikke ved, hvordan GKI output bliver til. Og det er et seriøst problem. Genereret tekst fra GKI bliver til i en “sort boks”, der ikke kan åbnes; hverken af lægpersoner eller eksperter. Der er tale om principielt uforklarlighed ved den måde, GKI fungerer på. Derfor må man aldrig basere udsagn om viden på genereret tekst eller lade en GKI være grundlaget for en beslutning med konsekvenser for andre mennesker. Men betyder det, at man ikke kan anvende GKI til noget andet? Her vil jeg mene, at der er mange designs, hvori GKI indgår, der kan være meningsfulde. Eksempelvis kan man anvende GKI til at generere ideer om interessante emner, man kan tage fat i, hvis man som studerende har svært ved selv at komme på noget. Brainstorming er ikke viden og derfor kan man anvende genereret tekst til netop det - ligesom man kan få ideer til at komme videre i en tankerække, man er begyndt på. Så igen mener jeg, at Williamsons pointe falder. Der er ikke sammenhæng mellem argumentet (black box) og konsekvens: ingen anvendelse af GKI i uddannelse.

Argument nummer syv siger “Generativ AI kan opfinde fakta, forvanske information, undlade at skelne mellem autoritative og dårlige kilder." Dette er helt korrekt. Når man arbejder med GKI bliver man nødt til at vide, hvordan teknologien fungerer. Genereret tekst bliver til ud fra vægtede sandsynligheder af sammensætninger af tokens (dele af ord og tegn). Tekst genereres ud fra en kompliceret algoritme, der forudsiger den mest sandsynlige fortsættelse af en sætning, hvorfor man ikke kan anvende genereret tekst som viden. Dog fungerer tekstgenereringen på en måde, der minder om viden, og hvis man selv har ekspertviden kan man afgøre, om teksten lever op til standarderne for viden, kan man (måske) anvende den genererede tekst. Men i uddannelsessammenhæng kan man ikke anvende genereret tekst som udsagn om viden, men snarere som indspil, der øger ens refleksivitet og indgår i ens læringsproces. Man kan blandt andet få feedback på noget, man har skrevet. Denne feedback kan man anvende til at tænke videre over det, man har skrevet - men ikke som et facit på det, man har skrevet.

Herefter følger, at GKI kan være gatekeepere af viden, hvilket faktisk er noget vrøvl, hvis man ved, hvordan GKI fungerer, så vil man aldrig betragte GKI som en vidensressource, men anvende det til så meget andet.

De følgende argumenter går på industriens moralitet og brud på ophavsret, hvilket er et problem med den måde, som store sprogmodeller bliver udviklet på. Her vil jeg mene, at man bør føre en restriktiv politik, der regulerer industrien, så de overholder gældende lov, ligesom vi som samfund må sætte regler for, hvordan man kan udvikle sprogmodeller, og hvordan vores data skal behandles. Dette gælder allerede, og jeg tror, at der brug for mere regulering. Så her er jeg enig med Williamson, men jeg vil ikke tage den samme konsekvens som ham.

“At støtte sig til AI, når man skal producere skræddersyet indhold, vil kunne føre til en forringelse af elevernes kognitive processer og deres evne til at løse problemer og tænke kritisk." Ja igen, det er selvfølgelig rigtigt. Ligesom hvis man lader studerende bruge en bog, de ikke forholder sig reflekteret og kritisk til. Og igen, så er genererede tekster ikke udsagn baseret på viden. Det skal både underviser og studerende naturligvis vide, så de kan anvende en genereret tekst på måder, som understøtter deres reflekterede og kritiske omgang med påstande om verden. At få genereret en kritik af, hvad man selv tror at vide kan, bidrage til kritisk refleksivitet i forhold til egne forestillinger. Så GKI kan både være en erstatning for og et bidrag til kritisk tænkning.

Williamson mener også, at GKI bidrager til individualisering. Og det er rigtigt, at det nok er det, der oftest bliver peget på af GKI-apologeter, at det understøtter personaliseret og dermed individualiserede læringsprocesser. Dette er virkeligt et oplagt problem. I det hele taget er vestlige samfund mere og mere individualiserende, hvilket er et problem. Det er et problem ved de vestlige samfund, som GKI måske bidrager til, og hvilket vi må forsøge at modarbejde. Men som i forhold til ovenstående om kritisk tænkning, så handler det jo om, hvordan GKI anvendes; altså om hvordan vi går til vores studerende og deres arbejdsformer. Dermed lægger anvendelsen af GKI også op til, at underviserne skal kende teknologien - ligesom de skal kende alle andre midler, de anvender i undervisningen - for at designe undervisning, der understøtter de studerendes læring. Jeg er fuldstændig enig i, at vi i uddannelsesverden må gøre mere for læring bliver forstået som en social og kollektiv proces - og jeg tror, at vi kan lave undervisningsdesigns, der understøtter dette med og uden GKI.

GKI kan anvendes i en standardisering af output, hvis man ikke ved, hvordan man anvender teknologien til at styrke ens egne formuleringer. Williamson peger også på, at anvendelsen “indførelsen af kunstig intelligens i pædagogisk praksis eller instruktionsrutiner repræsenterer en bevægelse bort fra den ansvarlige menneskelige dømmekraft”, hvilket peger på en god pointe ift. anvendelsen af GKI, nemlig, at brugeren altid besidder det fulde ansvar for, hvordan et genereret output anvendes. At tage genereret tekst og anvende det svarer fuldstændig til, at man siger det selv. Man står både vidensmæssigt og moralsk til ansvar for, hvad man siger og skriver - eller hvad man som underviser får genereret.

Williamson peger efter min opfattelse meget rigtigt på de miljømæssige problemer med anvendelsen af GKI. Og endelig peger han på, at store sprogmodeller indeholder bias. Men det er ikke et problem med store sprogmodeller, men netop en forudsætning for dem. Det skal man naturligvis vide, når man anvender GKI. Det er ikke en fejl ved teknologien, men noget man må tage højde for. For at gentage mig selv, så er det brugeren der må tage det fulde ansvar for sin brug af genereret tekst.

I det hele taget mener jeg, at Williamson har rigtig mange gode pointer i forhold til den måde, industrien beskriver sine egne produkter og den måde, som en række forfattere har beskrevet GKI på. Men jeg mener samtidig, at han tager fejl af, hvad man kan med GKI, og hvad der er uddannelsernes opgave.

Uddannelserne skal gøre studerende i stand til at forholde sig til de teknologier, de møder i deres hverdag og i de funktioner, de uddanner sig til. Her spiller GKI en rolle, hvorfor også de studerende må kende dem både i forhold til, hvad man anvender værktøjerne til, og hvilke begrænsninger brugen af dem har.

Williamson peger på tre overordnede problemer med GKI. Det ene handler om, hvordan man taler om GKI. Jeg er her helt enig i, at den dominerende diskurs er problematisk, uanset om den er overdrevet positiv eller negativ.

Det andet handler om, hvordan virksomhederne, der udvikler produkter med GKI, fungerer. Her er jeg helt enig i, at de både skal kontrolleres og reguleres. Mange af dem har problemer med deres moralske kompas, og her må vi som samfund træde til og regulere, så virksomhederne og deres produkter virker til fordel for samfundet - de samfund vi gerne vil udvikle os til - fremfor, at deres profithunger står i vejen for udviklingen af gode, ordentlige samfund og uddannelser.

Det tredje handler om GKIs effekt på de læringsprocesser, studerende går igennem. Her er jeg også enig med Williamson i, at der ligger mange farer og faldgruber i anvendelsen af GKI, hvis man ikke ved, hvordan teknologierne virker og fungerer.

Inden for uddannelsesverdenen har vi et stort ansvar for, at vi inddrager GKI på måder, der dels bidrager til de studerendes refleksive og kritiske engagement med deres fag, og at de samtidig udvikler en kritisk forståelse for, hvordan denne teknologi og alle andre teknologier, der arbejder med fungerer. Generel teknologiforståelse bør derfor også være en del af undervisningen på alle niveauer af uddannelsessystemet, så elever og studerende ikke arbejder med teknologier, de ikke forstår hvordan fungerer.

Så tak for bidraget til diskussionen om GKI og uddannelser. Lad os fortsætte denne diskussion og gøre den bredere, så flere stemmer deltager i den.

pil op
Næste essay
Ikke flere essays